|
|
Registro Completo |
Biblioteca(s): |
Embrapa Agricultura Digital. |
Data corrente: |
07/07/2005 |
Data da última atualização: |
27/02/2024 |
Autoria: |
SOUZA, K. X. S. de. |
Afiliação: |
KLEBER XAVIER SAMPAIO DE SOUZA, CNPTIA. |
Título: |
Aplicação da inteligência artificial para recuperar informação. |
Ano de publicação: |
2005 |
Fonte/Imprenta: |
Com Ciência: Revista Eletrônica de Jornalismo Científico, n. 66, jun. 2005. |
Idioma: |
Português |
Conteúdo: |
O sucesso da recuperação de informação está vinculado a dois conceitos: revocação e precisão. O primeiro mede a capacidade que um sistema computacional possui de recuperar o máximo de documentos que puder sobre a consulta que lhe foi formulada pelo usuário, enquanto o segundo avalia, dentre os documentos recuperados, quais correspondem realmente ao que o formulador da consulta tinha em mente. A precisão, portanto, é um conceito que pressupõe que a máquina possua um certo grau de inteligência e isto a vincula a uma outra área da Ciência da Computação, a Inteligência Artificial. A discussão do que significa ser inteligente tem ocupado os filósofos há mais de 2.300 anos. Aristóteles foi o primeiro a formular um conjunto de leis que governam a razão e desenvolveu um sistema informal (de silogismos) para se chegar às conclusões mecanicamente a partir de um conjunto de premissas. Na Ciência da Computação o problema também não é novo. Na tentativa de estudar e simular os processos mentais, Warren McCulloc e Walter Pitts propuseram os neurônios artificiais em 1943, e sugeriram que estes possuíam capacidade de aprendizado, fato demonstrado por Donald Hebb em 1949. Marvin Minsky e Dean Edmonds construíram a primeira rede neural em 1951, utilizando válvulas, dado que os transistores não existiam naquela época. Isto gerou grande expectativa na ocasião, pois se imaginava que os computadores não poderiam ir muito além dos cálculos aritméticos. Foi, entretanto, Alan Turing que formulou o primeiro teste para verificar se um computador poderia ser considerado inteligente ou não. No Teste de Turing, o computador deve ser capaz de manter um diálogo (em forma de chat) com um interlocutor humano que dure cinco minutos. Caso o humano não perceba em 30% do tempo, ou seja, um minuto e quarenta segundos, que está dialogando com uma máquina, o programa que está dialogando passa no teste.Turing previu que por volta do ano 2000 algum programa passaria no teste, o que não ocorreu. O tempo que os programas conseguem enganar os interlocutores humanos é bem inferior ao estipulado no teste. Alguns programas conseguem enganar interlocutores inexperientes por cinco minutos, mas não experts treinados, que sabem formular as perguntas de modo a descobrir eventuais falhas que tornariam os programas menos humanos. Naturalmente, existem os que refutam o teste, afirmando que o computador não seria inteligente de fato, mas apenas capaz de simular a inteligência, sem saber exatamente o que estaria fazendo, ou seja, o computador não teria consciência. Para a área de recuperação da informação, entretanto, este problema não existe, pois não se deseja fazer com que o programa passe por um humano, mas apenas que forneça as respostas corretas à onsulta formulada. Ainda assim, as dificuldades são enormes, pois, para fornecer respostas com precisão, o sistema necessita "compreender" os textos que processou, o que demanda pesquisa em áreas como processamento de linguagem natural, representação de conhecimento, raciocínio automatizado e aprendizado de máquina. A Representação do Conhecimento tem evoluído bastante nos últimos dez anos, principalmente devido ao surgimento da web. Quando se percebeu que os motores de busca não forneciam respostas satisfatórias às consultas que lhes eram formuladas, a recuperação da informação voltou a despertar grande interesse. O principal resultado deste movimento foi a iniciativa da Web Semântica, que desenvolveu uma série de padrões de representação de conhecimento a serem embutidos nas páginas web, de forma que estas pudessem ser processadas com maior precisão pelos motores de busca. As páginas podem ser conectadas por ontologias, que definem o significado preciso dos termos nelas contidos, além de conter cláusulas lógicas conectando um ou mais termos. A hipótese subjacente à Web Semântica é que as ontologias permitiriam às máquinas entender o contexto em que os documentos se inserem. Por exemplo, quando alguém fala de manga rosa, o sistema saberá se a manga rosa em um determinado texto é a fruta ou a manga de camisa, dependendo da ontologia à qual estiver associada. Ainda é cedo para se dizer aonde esta iniciativa irá levar, considerando que não existem muitos sítios cujas páginas seguem os padrões da Web Semântica. Alguns críticos, como Marvin Minsky, ressaltaram que o contexto não pode ser programado em máquinas através de definições lógicas que se sustentam fora de qualquer contexto. Outros, como Douglas Lenat, propõem expressar até o senso comum utilizando-se apenas de ontologias e cláusulas lógicas em um projeto em andamento há mais de 15 anos. No projeto Agência de Informação Embrapa, em execução na Embrapa Informática Agropecuária, construiu-se ontologias sobre vários temas do domínio agropecuário, como gado de corte, feijão, leite etc. Os documentos existentes são catalogados manualmente, selecionando-se termos de tesaurus e a quais ontologias estão associados. Fazendo-se a catalogação manual, garante-se a perfeita sintonia entre o assunto que o texto trata e melhora-se a relevância. Entretanto, esta atividade também tem feito com que a catalogação seja um gargalo para o sistema, o que tem motivado a busca por sistemas automatizados que auxiliem nesta tarefa. Uma das áreas mais promissoras para auxiliar nesta tarefa também está vinculada à Inteligência Artificial e é chamada Processamento Probabilístico da Linguagem. Nesta, os documentos são analisados por programas que usam estatística e aprendem, com exemplos, como classificar um subconjunto de documentos. A partir daí, ele sugere a probabilidade da classificação de um documento em um determinado assunto. Por exemplo, se um documento menciona manga, plantar e sabor, é improvável que ele se refira à manga de camisa. Portanto, o sistema sugere que ele seja classificado como fruta. As abordagens probabilísticas para processamento de linguagem natural também têm despertado grande interesse recentemente, e com bastante sucesso. Koller e Sahami relataram precisão de até 98,6% na classificação de documentos. A principal vantagem da abordagem probabilística, e que norteou a sua escolha como base para a melhoria do sistema, é que ela fornece uma excelente solução do ponto de vista de engenharia, podendo ser imediatamente aplicada ao problema prático que a Agência de Informação possui de ter seus documentos classificados e catalogados. Baseado em: Diversas fontes. Texto completo do documento. MenosO sucesso da recuperação de informação está vinculado a dois conceitos: revocação e precisão. O primeiro mede a capacidade que um sistema computacional possui de recuperar o máximo de documentos que puder sobre a consulta que lhe foi formulada pelo usuário, enquanto o segundo avalia, dentre os documentos recuperados, quais correspondem realmente ao que o formulador da consulta tinha em mente. A precisão, portanto, é um conceito que pressupõe que a máquina possua um certo grau de inteligência e isto a vincula a uma outra área da Ciência da Computação, a Inteligência Artificial. A discussão do que significa ser inteligente tem ocupado os filósofos há mais de 2.300 anos. Aristóteles foi o primeiro a formular um conjunto de leis que governam a razão e desenvolveu um sistema informal (de silogismos) para se chegar às conclusões mecanicamente a partir de um conjunto de premissas. Na Ciência da Computação o problema também não é novo. Na tentativa de estudar e simular os processos mentais, Warren McCulloc e Walter Pitts propuseram os neurônios artificiais em 1943, e sugeriram que estes possuíam capacidade de aprendizado, fato demonstrado por Donald Hebb em 1949. Marvin Minsky e Dean Edmonds construíram a primeira rede neural em 1951, utilizando válvulas, dado que os transistores não existiam naquela época. Isto gerou grande expectativa na ocasião, pois se imaginava que os computadores não poderiam ir muito além dos cálculos aritméticos. Foi, entretanto, Alan Turing que formulou o p... Mostrar Tudo |
Palavras-Chave: |
Inteligência artificial; Recuperação da informação; Web semântica. |
Categoria do assunto: |
-- |
Marc: |
LEADER 07121nam a2200145 a 4500 001 1001252 005 2024-02-27 008 2005 bl uuuu u0uu1 u #d 100 1 $aSOUZA, K. X. S. de 245 $aAplicação da inteligência artificial para recuperar informação.$h[electronic resource] 260 $aCom Ciência: Revista Eletrônica de Jornalismo Científico, n. 66, jun. 2005.$c2005 520 $aO sucesso da recuperação de informação está vinculado a dois conceitos: revocação e precisão. O primeiro mede a capacidade que um sistema computacional possui de recuperar o máximo de documentos que puder sobre a consulta que lhe foi formulada pelo usuário, enquanto o segundo avalia, dentre os documentos recuperados, quais correspondem realmente ao que o formulador da consulta tinha em mente. A precisão, portanto, é um conceito que pressupõe que a máquina possua um certo grau de inteligência e isto a vincula a uma outra área da Ciência da Computação, a Inteligência Artificial. A discussão do que significa ser inteligente tem ocupado os filósofos há mais de 2.300 anos. Aristóteles foi o primeiro a formular um conjunto de leis que governam a razão e desenvolveu um sistema informal (de silogismos) para se chegar às conclusões mecanicamente a partir de um conjunto de premissas. Na Ciência da Computação o problema também não é novo. Na tentativa de estudar e simular os processos mentais, Warren McCulloc e Walter Pitts propuseram os neurônios artificiais em 1943, e sugeriram que estes possuíam capacidade de aprendizado, fato demonstrado por Donald Hebb em 1949. Marvin Minsky e Dean Edmonds construíram a primeira rede neural em 1951, utilizando válvulas, dado que os transistores não existiam naquela época. Isto gerou grande expectativa na ocasião, pois se imaginava que os computadores não poderiam ir muito além dos cálculos aritméticos. Foi, entretanto, Alan Turing que formulou o primeiro teste para verificar se um computador poderia ser considerado inteligente ou não. No Teste de Turing, o computador deve ser capaz de manter um diálogo (em forma de chat) com um interlocutor humano que dure cinco minutos. Caso o humano não perceba em 30% do tempo, ou seja, um minuto e quarenta segundos, que está dialogando com uma máquina, o programa que está dialogando passa no teste.Turing previu que por volta do ano 2000 algum programa passaria no teste, o que não ocorreu. O tempo que os programas conseguem enganar os interlocutores humanos é bem inferior ao estipulado no teste. Alguns programas conseguem enganar interlocutores inexperientes por cinco minutos, mas não experts treinados, que sabem formular as perguntas de modo a descobrir eventuais falhas que tornariam os programas menos humanos. Naturalmente, existem os que refutam o teste, afirmando que o computador não seria inteligente de fato, mas apenas capaz de simular a inteligência, sem saber exatamente o que estaria fazendo, ou seja, o computador não teria consciência. Para a área de recuperação da informação, entretanto, este problema não existe, pois não se deseja fazer com que o programa passe por um humano, mas apenas que forneça as respostas corretas à onsulta formulada. Ainda assim, as dificuldades são enormes, pois, para fornecer respostas com precisão, o sistema necessita "compreender" os textos que processou, o que demanda pesquisa em áreas como processamento de linguagem natural, representação de conhecimento, raciocínio automatizado e aprendizado de máquina. A Representação do Conhecimento tem evoluído bastante nos últimos dez anos, principalmente devido ao surgimento da web. Quando se percebeu que os motores de busca não forneciam respostas satisfatórias às consultas que lhes eram formuladas, a recuperação da informação voltou a despertar grande interesse. O principal resultado deste movimento foi a iniciativa da Web Semântica, que desenvolveu uma série de padrões de representação de conhecimento a serem embutidos nas páginas web, de forma que estas pudessem ser processadas com maior precisão pelos motores de busca. As páginas podem ser conectadas por ontologias, que definem o significado preciso dos termos nelas contidos, além de conter cláusulas lógicas conectando um ou mais termos. A hipótese subjacente à Web Semântica é que as ontologias permitiriam às máquinas entender o contexto em que os documentos se inserem. Por exemplo, quando alguém fala de manga rosa, o sistema saberá se a manga rosa em um determinado texto é a fruta ou a manga de camisa, dependendo da ontologia à qual estiver associada. Ainda é cedo para se dizer aonde esta iniciativa irá levar, considerando que não existem muitos sítios cujas páginas seguem os padrões da Web Semântica. Alguns críticos, como Marvin Minsky, ressaltaram que o contexto não pode ser programado em máquinas através de definições lógicas que se sustentam fora de qualquer contexto. Outros, como Douglas Lenat, propõem expressar até o senso comum utilizando-se apenas de ontologias e cláusulas lógicas em um projeto em andamento há mais de 15 anos. No projeto Agência de Informação Embrapa, em execução na Embrapa Informática Agropecuária, construiu-se ontologias sobre vários temas do domínio agropecuário, como gado de corte, feijão, leite etc. Os documentos existentes são catalogados manualmente, selecionando-se termos de tesaurus e a quais ontologias estão associados. Fazendo-se a catalogação manual, garante-se a perfeita sintonia entre o assunto que o texto trata e melhora-se a relevância. Entretanto, esta atividade também tem feito com que a catalogação seja um gargalo para o sistema, o que tem motivado a busca por sistemas automatizados que auxiliem nesta tarefa. Uma das áreas mais promissoras para auxiliar nesta tarefa também está vinculada à Inteligência Artificial e é chamada Processamento Probabilístico da Linguagem. Nesta, os documentos são analisados por programas que usam estatística e aprendem, com exemplos, como classificar um subconjunto de documentos. A partir daí, ele sugere a probabilidade da classificação de um documento em um determinado assunto. Por exemplo, se um documento menciona manga, plantar e sabor, é improvável que ele se refira à manga de camisa. Portanto, o sistema sugere que ele seja classificado como fruta. As abordagens probabilísticas para processamento de linguagem natural também têm despertado grande interesse recentemente, e com bastante sucesso. Koller e Sahami relataram precisão de até 98,6% na classificação de documentos. A principal vantagem da abordagem probabilística, e que norteou a sua escolha como base para a melhoria do sistema, é que ela fornece uma excelente solução do ponto de vista de engenharia, podendo ser imediatamente aplicada ao problema prático que a Agência de Informação possui de ter seus documentos classificados e catalogados. Baseado em: Diversas fontes. Texto completo do documento. 653 $aInteligência artificial 653 $aRecuperação da informação 653 $aWeb semântica
Download
Esconder MarcMostrar Marc Completo |
Registro original: |
Embrapa Agricultura Digital (CNPTIA) |
|
Biblioteca |
ID |
Origem |
Tipo/Formato |
Classificação |
Cutter |
Registro |
Volume |
Status |
URL |
Voltar
|
|
| Acesso ao texto completo restrito à biblioteca da Embrapa Meio Ambiente. Para informações adicionais entre em contato com cnpma.biblioteca@embrapa.br. |
Registro Completo
Biblioteca(s): |
Embrapa Meio Ambiente. |
Data corrente: |
02/01/2019 |
Data da última atualização: |
02/01/2019 |
Tipo da produção científica: |
Artigo em Anais de Congresso |
Autoria: |
FURQUIM, L. C.; NUÑEZ, D. N. C.; SANTINI, J. M. K.; CABRAL, J. S. R.; SOUZA, E. J. de; TEIXEIRA, A. H. de C.; SILVA, G. B. S. da; NASCIMENTO, P. E. R.; STONE, L. F.; SOUCHIE, E. L.; BOLDRIN, M. C. F. |
Afiliação: |
LEONNARDO CRUVINEL FURQUIM, Instituto de Ensino Superior de Rio Verde; DANIEL NOE COAGUILA NUNEZ, Instituto de Ensino Superior de Rio Verde; JOSE MATEUS KONDO SANTINI, Instituto de Ensino Superior de Rio Verde; JULIANA SILVA RODRIGUES CABRAL, Instituto de Ensino Superior de Rio Verde; EPITACIO JOSE DE SOUZA, Instituto de Ensino Superior de Rio Verde; ANTONIO HERIBERTO DE C TEIXEIRA, CPATC; GUSTAVO BAYMA SIQUEIRA DA SILVA, CNPMA; PAULO EUSTAQUIO RESENDE NASCIMENTO, IFGoiano; LUIS FERNANDO STONE, CNPAF; EDSON LUIZ SOUCHIE, IFGoiano; MARUSSA CASSIA FAVARO BOLDRIN, Laboratório Solo Verde. |
Título: |
Qualidade física, química e biológica do solo e sensoriamento remoto na recuperação de pastagens degradadas através de sistemas integrados. |
Ano de publicação: |
2018 |
Fonte/Imprenta: |
Revista Científic@, Goianésia, v. 5. n. 3, p. 145-160, 2018. Edição com artigos selecionados do 1º Congresso Interinstitucional de Ciência do Solo: ciência para a redução de desigualdades, 17-19 outubro de 2018, Goianésia, GO. |
Idioma: |
Português |
Conteúdo: |
Resumo: A produção pecuária brasileira, baseada no extrativismo e na baixa sustentabilidade, causa produção limitada, viabilidade econômica e degradação do solo. Sistemas integrados são alternativas viáveis, sustentáveis e aplicadas à realidade dos produtores. O objetivo do presente trabalho foi medir a qualidade física, biológica e química do solo e avaliar parâmetros biofísicos por sensoriamento remoto. O experimento foi conduzido em Rio Verde - Goiás, com sete tratamentos: pastagem degradada, pastagem degradada com adubação, reforma convencional de pastagem, integração de plantio florestal (com árvores frutíferas e olivais), integração pecuária- floresta com pastagem, colheita Integração pecuária-floresta com produção de feno e integração lavoura-pecuária-floresta com produção de silagem com consórcio sorgo forrageiro com pastagem. Os parâmetros densidade do solo, porosidade total, macroporos, índice S e capacidade de aeração do solo não diferiram estatisticamente. As pastagens degradadas apresentaram maior microporosidade em relação aos demais tratamentos. Os índices indicam maior retenção de água na pastagem degradada pela maior quantidade de microporos devido aos processos de compactação. Todos os tratamentos estavam abaixo do limite crítico de S de 0,045, cujos valores abaixo indicam degradação da estrutura do solo. Observou-se maior densidade populacional de fungos e bactérias, além de esporos de fungos micorrízicos em solos dos tratamentos sem revolvimento do solo. Os resultados referentes à fertilidade do solo foram responsivos apenas nos tratamentos onde a calagem foi realizada. Os dados de sensoriamento remoto foram precisos na determinação da biomassa atual e da evapotranspiração nos tratamentos. Abstract: Brazilian livestock production, based on extractivism and low sustainability, causes limited production, economic viability and soil degradation. Integrated systems are alternatives in the viable, sustainable and applied to the reality of the producers. The objective of the present work was to measure the physical, biological and chemical quality of the soil and to perform evaluation of biophysical parameters by remote sensing. The experiment was conducted in Rio Verde - Goiás, Brazil, with seven treatments: degraded pasture, degraded pasture with fertilization, conventional pasture reform, integration of crop-forest (with fruit trees and olive groves), livestock-forest integration with grazing, crop- livestock-forest integration with hay production and crop-livestock-forest integration with silage production with forage sorghum consortium with pasture. The parameters soil density, total porosity, macropores, S index and soil aeration capacity did not differ statistically. The degraded pastures presented higher microporosity in relation to the other treatments. The indexes indicate higher retention of water in the degraded pasture by the greater amount of micropores due to the compaction processes. All treatments were below the critical limit of S of 0.045, which values below this indicates degradation of soil structure. It was observed a higher population density of fungi and bacteria, besides spores of mycorrhizal fungi in soils of the treatments without revolving of the soil. Results regarding soil fertility were responsive only in the treatments where liming was performed. The remote sensing data were accurate in determining the current biomass and evapotranspiration in the treatments. MenosResumo: A produção pecuária brasileira, baseada no extrativismo e na baixa sustentabilidade, causa produção limitada, viabilidade econômica e degradação do solo. Sistemas integrados são alternativas viáveis, sustentáveis e aplicadas à realidade dos produtores. O objetivo do presente trabalho foi medir a qualidade física, biológica e química do solo e avaliar parâmetros biofísicos por sensoriamento remoto. O experimento foi conduzido em Rio Verde - Goiás, com sete tratamentos: pastagem degradada, pastagem degradada com adubação, reforma convencional de pastagem, integração de plantio florestal (com árvores frutíferas e olivais), integração pecuária- floresta com pastagem, colheita Integração pecuária-floresta com produção de feno e integração lavoura-pecuária-floresta com produção de silagem com consórcio sorgo forrageiro com pastagem. Os parâmetros densidade do solo, porosidade total, macroporos, índice S e capacidade de aeração do solo não diferiram estatisticamente. As pastagens degradadas apresentaram maior microporosidade em relação aos demais tratamentos. Os índices indicam maior retenção de água na pastagem degradada pela maior quantidade de microporos devido aos processos de compactação. Todos os tratamentos estavam abaixo do limite crítico de S de 0,045, cujos valores abaixo indicam degradação da estrutura do solo. Observou-se maior densidade populacional de fungos e bactérias, além de esporos de fungos micorrízicos em solos dos tratamentos sem revolvimento do solo. ... Mostrar Tudo |
Palavras-Chave: |
Crop-livestock-forest integration; Integração Lavoura-pecuária-floresta; Qualidade do solo. |
Thesagro: |
Agrossilvicultura; Recuperação do solo; Sensoriamento remoto. |
Thesaurus NAL: |
Agroforestry; Soil restoration. |
Categoria do assunto: |
P Recursos Naturais, Ciências Ambientais e da Terra |
Marc: |
LEADER 04806naa a2200337 a 4500 001 2102714 005 2019-01-02 008 2018 bl --- 0-- u #d 100 1 $aFURQUIM, L. C. 245 $aQualidade física, química e biológica do solo e sensoriamento remoto na recuperação de pastagens degradadas através de sistemas integrados.$h[electronic resource] 260 $c2018 520 $aResumo: A produção pecuária brasileira, baseada no extrativismo e na baixa sustentabilidade, causa produção limitada, viabilidade econômica e degradação do solo. Sistemas integrados são alternativas viáveis, sustentáveis e aplicadas à realidade dos produtores. O objetivo do presente trabalho foi medir a qualidade física, biológica e química do solo e avaliar parâmetros biofísicos por sensoriamento remoto. O experimento foi conduzido em Rio Verde - Goiás, com sete tratamentos: pastagem degradada, pastagem degradada com adubação, reforma convencional de pastagem, integração de plantio florestal (com árvores frutíferas e olivais), integração pecuária- floresta com pastagem, colheita Integração pecuária-floresta com produção de feno e integração lavoura-pecuária-floresta com produção de silagem com consórcio sorgo forrageiro com pastagem. Os parâmetros densidade do solo, porosidade total, macroporos, índice S e capacidade de aeração do solo não diferiram estatisticamente. As pastagens degradadas apresentaram maior microporosidade em relação aos demais tratamentos. Os índices indicam maior retenção de água na pastagem degradada pela maior quantidade de microporos devido aos processos de compactação. Todos os tratamentos estavam abaixo do limite crítico de S de 0,045, cujos valores abaixo indicam degradação da estrutura do solo. Observou-se maior densidade populacional de fungos e bactérias, além de esporos de fungos micorrízicos em solos dos tratamentos sem revolvimento do solo. Os resultados referentes à fertilidade do solo foram responsivos apenas nos tratamentos onde a calagem foi realizada. Os dados de sensoriamento remoto foram precisos na determinação da biomassa atual e da evapotranspiração nos tratamentos. Abstract: Brazilian livestock production, based on extractivism and low sustainability, causes limited production, economic viability and soil degradation. Integrated systems are alternatives in the viable, sustainable and applied to the reality of the producers. The objective of the present work was to measure the physical, biological and chemical quality of the soil and to perform evaluation of biophysical parameters by remote sensing. The experiment was conducted in Rio Verde - Goiás, Brazil, with seven treatments: degraded pasture, degraded pasture with fertilization, conventional pasture reform, integration of crop-forest (with fruit trees and olive groves), livestock-forest integration with grazing, crop- livestock-forest integration with hay production and crop-livestock-forest integration with silage production with forage sorghum consortium with pasture. The parameters soil density, total porosity, macropores, S index and soil aeration capacity did not differ statistically. The degraded pastures presented higher microporosity in relation to the other treatments. The indexes indicate higher retention of water in the degraded pasture by the greater amount of micropores due to the compaction processes. All treatments were below the critical limit of S of 0.045, which values below this indicates degradation of soil structure. It was observed a higher population density of fungi and bacteria, besides spores of mycorrhizal fungi in soils of the treatments without revolving of the soil. Results regarding soil fertility were responsive only in the treatments where liming was performed. The remote sensing data were accurate in determining the current biomass and evapotranspiration in the treatments. 650 $aAgroforestry 650 $aSoil restoration 650 $aAgrossilvicultura 650 $aRecuperação do solo 650 $aSensoriamento remoto 653 $aCrop-livestock-forest integration 653 $aIntegração Lavoura-pecuária-floresta 653 $aQualidade do solo 700 1 $aNUÑEZ, D. N. C. 700 1 $aSANTINI, J. M. K. 700 1 $aCABRAL, J. S. R. 700 1 $aSOUZA, E. J. de 700 1 $aTEIXEIRA, A. H. de C. 700 1 $aSILVA, G. B. S. da 700 1 $aNASCIMENTO, P. E. R. 700 1 $aSTONE, L. F. 700 1 $aSOUCHIE, E. L. 700 1 $aBOLDRIN, M. C. F. 773 $tRevista Científic@, Goianésia$gv. 5. n. 3, p. 145-160, 2018. Edição com artigos selecionados do 1º Congresso Interinstitucional de Ciência do Solo: ciência para a redução de desigualdades, 17-19 outubro de 2018, Goianésia, GO.
Download
Esconder MarcMostrar Marc Completo |
Registro original: |
Embrapa Meio Ambiente (CNPMA) |
|
Biblioteca |
ID |
Origem |
Tipo/Formato |
Classificação |
Cutter |
Registro |
Volume |
Status |
Fechar
|
|
Registros recuperados : 1 | |
1. | | 1100056, CANADIAN PLANT DISEASE SURVEY, Research Branch Agriculture Canada, Ottawa-Canada Biblioteca(s): Catálogo Coletivo de Periódicos Embrapa; Embrapa Agropecuária Oeste; Embrapa Arroz e Feijão; Embrapa Cerrados; Embrapa Clima Temperado; Embrapa Hortaliças; Embrapa Trigo; Embrapa Uva e Vinho. | |
Registros recuperados : 1 | |
|
|
|